GU605 BannerMas Alla Banner
Estados Unidos usó la IA de Anthropic para atacar Irán horas antes de prohibir su tecnología

Estados Unidos usó la IA de Anthropic para atacar Irán horas antes de prohibir su tecnología

por Edgar Otero

La ruptura entre Anthropic y el Pentágono ha tomado un giro especialmente irónico. Según se informa, el Departamento de Defensa utilizó las herramientas de inteligencia artificial de la compañía para planificar el ataque aéreo masivo contra Irán que comenzó el 28 de febrero, apenas unas horas después de que el presidente Trump ordenara a todas las agencias federales "cesar inmediatamente todo uso de la tecnología de Anthropic".

La orden presidencial, publicada en Truth Social el 27 de febrero, llegó tras el colapso definitivo de las negociaciones entre el Pentágono y Anthropic sobre los términos de uso de Claude en operaciones militares. La compañía liderada por Dario Amodei se había negado a eliminar sus restricciones sobre dos áreas críticas: armas totalmente autónomas y vigilancia masiva doméstica.

Los bombardeos coordinados entre Estados Unidos e Israel contra objetivos iraníes comenzaron la madrugada del 28 de febrero, mientras todavía estaban en curso negociaciones diplomáticas para limitar el programa nuclear de Irán. Los ataques se centraron especialmente en Teherán, donde se escucharon fuertes explosiones que alcanzaron el palacio presidencial y sedes de seguridad, además de otras ciudades del país.

Una tecnología rechazada que sigue en uso

Aunque Trump estableció un período de transición de seis meses para que agencias como el Departamento de Defensa abandonen gradualmente los productos de Anthropic, la realidad es que Claude sigue siendo la única IA con clasificación de seguridad Impact Level 6, lo que le permite operar en redes completamente clasificadas del Pentágono. Esto significa que, técnicamente, el uso continuado durante el período de transición podría ser legal, aunque entra en directa contradicción con el núcleo de la orden presidencial.

Esta no es la primera vez que Claude se utiliza en operaciones militares que generan controversia. The Wall Street Journal había revelado previamente que la IA de Anthropic fue empleada en la captura del expresidente venezolano Nicolás Maduro, una operación que supuestamente violó los términos del acuerdo vigente. Según fuentes familiarizadas con el asunto, Anthropic descubrió este uso no autorizado durante las negociaciones con el Pentágono, lo que habría contribuido a tensar aún más la relación.

La situación pone de manifiesto la brecha entre las aspiraciones éticas declaradas por Anthropic y la realidad del uso de su tecnología. La compañía ha construido su imagen de marca precisamente sobre la base de la IA responsable y la confianza del usuario. Hace apenas unas semanas, Anthropic publicaba un comunicado categórico cerrando la puerta a la publicidad en Claude, argumentando que los incentivos comerciales podían comprometer la neutralidad del asistente y erosionar la confianza.

OpenAI acepta lo que Anthropic rechaza

El contraste con OpenAI resulta especialmente llamativo. Mientras Anthropic rompía con el Pentágono, OpenAI anunciaba rápidamente que había alcanzado un acuerdo para desplegar sus modelos en entornos clasificados. El CEO Sam Altman admitió en redes sociales que el acuerdo fue "definitivamente apresurado" y que "la óptica no se ve bien", pero defendió la decisión como un intento de desescalar el conflicto entre el Departamento de Defensa y la industria.

Geeknetic Estados Unidos usó la IA de Anthropic para atacar Irán horas antes de prohibir su tecnología 1

OpenAI publicó posteriormente un comunicado detallando que mantiene las mismas líneas rojas que Anthropic: prohibición de vigilancia doméstica masiva, sistemas de armas autónomas y decisiones automatizadas de alto impacto como sistemas de crédito social. La diferencia, según la compañía, reside en su enfoque multicapa que incluye despliegue vía nube, personal autorizado de OpenAI supervisando el uso y fuertes protecciones contractuales.

Sin embargo, críticos como Mike Masnick de Techdirt han señalado que el lenguaje contractual de OpenAI permite la recopilación de datos privados siempre que cumpla con la Orden Ejecutiva 12333, precisamente el mecanismo que la NSA utiliza para ocultar vigilancia doméstica capturando comunicaciones fuera de Estados Unidos que incluyen información de ciudadanos estadounidenses.

Para Anthropic, el desenlace es paradójico. Ha construido su reputación defendiendo líneas rojas en el uso militar de la IA, pero su tecnología terminó siendo utilizada en una de las operaciones más sensibles justo antes de que la compañía cerrara definitivamente la puerta al Pentágono. El secretario de Defensa Pete Hegseth ha designado oficialmente a Anthropic como un "riesgo para la cadena de suministro", una clasificación habitualmente reservada para amenazas a la seguridad nacional.

Ahora, grandes contratistas de defensa y empresas tecnológicas como AWS, Palantir y Anduril que utilizaban Claude en su trabajo clasificado tendrán que migrar a otras alternativas, aunque según se ha podido saber, ese proceso podría llevar meses dada la complejidad de reemplazar un sistema con la certificación de seguridad única de Claude.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!

Redactor del Artículo: Edgar Otero

Edgar Otero

Soy técnico en sistemas informáticos, empecé a experimentar un Pentium II, aunque lo mío siempre ha sido el software. Desde que actualicé de Windows 95 a Windows 98 no he dejado de instalar sistemas. Tuve mi época Linuxera y fui de los que pidió el CD gratuito de Canonical. Actualmente uso macOS para trabajar y tengo un portátil con Windows 11 en el que también he instalado Chrome OS Flex. En definitiva, experimentar, probar y presionar botones.

Comentarios y opiniones sobre: Estados Unidos usó la IA de Anthropic para atacar Irán horas antes de prohibir su tecnología ¿Qué opinas? ¿Alguna pregunta?
NitroV16AI Banner